La Unión Europea va contra X: investigan a Grok por generar imágenes sexualizadas y desnudos sin consentimiento

La presión regulatoria sobre las plataformas tecnológicas vuelve a subir en Europa. La Comisión Europea abrió una investigación formal contra X por el funcionamiento de Grok, su sistema de inteligencia artificial, tras la difusión de imágenes sexualizadas y desnudos generados sin consentimiento, incluidos casos que podrían constituir material de abuso sexual infantil.

El procedimiento busca determinar si la empresa propiedad de Elon Musk cumple con las obligaciones que impone la Ley de Servicios Digitales (DSA) dentro de la Unión Europea.

Qué investiga Bruselas sobre Grok

En un comunicado emitido este lunes 26 de enero de 2026, la Comisión Europea informó que evaluará si X examinó y mitigó adecuadamente los riesgos asociados al lanzamiento de Grok en territorio europeo.

Entre los principales focos de la investigación están:

  • La posible distribución de contenido ilegal

  • La generación de imágenes manipuladas sexualmente explícitas

  • Riesgos que podrían afectar a menores de edad

Estos riesgos parecen haberse materializado”, señaló Bruselas, al confirmar que se analizará si X cumplió con su obligación de evaluar y reducir riesgos sistémicos antes de activar nuevas funciones de su IA.

Obligaciones bajo la Ley de Servicios Digitales

La Comisión investigará si X ha incumplido artículos clave de la Ley de Servicios Digitales, que obliga a las grandes plataformas a:

  • Identificar riesgos sistémicos para los usuarios

  • Adoptar medidas preventivas antes del lanzamiento de nuevas tecnologías

  • Entregar informes de riesgo específicos cuando una funcionalidad modifique el perfil de riesgo de la plataforma

En este caso, Bruselas exige a X haber presentado un informe de riesgos ad hoc sobre Grok antes de su despliegue en la Unión Europea.

Orden de conservar documentos internos

Incluso antes de anunciar la investigación, la Comisión Europea ya había ordenado a X conservar toda su documentación interna relacionada con Grok durante 2026, como parte de otro procedimiento abierto contra la red social por su manejo de contenidos ilegales.

La decisión se dio en medio de una creciente polémica por la circulación de imágenes de mujeres y niños desnudos generadas por Grok en semanas recientes.

Francia ya llevó el caso a tribunales

El caso escaló a nivel judicial luego de que el Gobierno de Francia presentara una denuncia formal contra X, sumándose a una lista de controversias previas.

Entre ellas, la Comisión Europea recordó que a finales de 2025, Grok estuvo involucrado en la publicación de contenidos que blanqueaban el Holocausto, lo que ya había encendido alertas en Bruselas.

Medidas insuficientes y un problema más amplio

Fuentes comunitarias reconocieron que X tomó algunas medidas recientes para frenar la difusión de imágenes sexualizadas, tras la presión pública y regulatoria. Sin embargo, advirtieron que la nueva investigación va más allá de casos aislados.

Según Bruselas, el problema podría estar relacionado con la arquitectura general de la plataforma y la forma en que Grok interactúa con los sistemas de publicación y recomendación de contenido.

Sin fechas límite, pero con carácter prioritario

La Comisión Europea aclaró que la investigación no tiene un calendario definido, aunque será tramitada de manera prioritaria, debido a los riesgos que las funciones de Grok representan para los ciudadanos europeos.

Si se confirman las infracciones, X podría enfrentar nuevas sanciones económicas y medidas correctivas obligatorias.

Antecedentes: multas y otras investigaciones en curso

En diciembre de 2025, Bruselas ya había impuesto a X una multa de 120 millones de euros por incumplir la Ley de Servicios Digitales, debido a:

  • El diseño engañoso de la verificación azul

  • Falta de transparencia en su repositorio publicitario

  • Restricciones al acceso de datos públicos para investigadores

Además, este 26 de enero, la Comisión prorrogó una investigación iniciada en 2023 sobre los sistemas de recomendación de contenido de X, la cual ahora incluirá el impacto de migrar a un modelo basado en la IA de Grok.

El debate sobre IA y responsabilidad

El caso de X y Grok vuelve a colocar en el centro del debate europeo la responsabilidad de las plataformas tecnológicas, especialmente cuando integran inteligencia artificial generativa con capacidad de producir contenido sensible a gran escala.

Para Bruselas, el mensaje es claro: innovar no exime de cumplir la ley.

 

Entradas relacionadas

Deja tu comentario